التصيد الصوتي بالذكاء الاصطناعي.. انتهاك جديد للخصوصية وحقوق الأمان الرقمي

التصيد الصوتي بالذكاء الاصطناعي.. انتهاك جديد للخصوصية وحقوق الأمان الرقمي
التصيد الصوتي بالذكاء الاصطناعي

حذّرت باحثة الذكاء الاصطناعي في شركة "برامبل إنتليجنس"، نيل نورمان، وهي إحدى مؤلفي تقرير حالة الذكاء الاصطناعي لعام 2025، من تحول التصيد الصوتي إلى تهديد حقيقي وفوري للحقوق الأساسية في الخصوصية والأمان الرقمي، مشيرًا إلى أن تقنيات الذكاء الاصطناعي لم تعد تحتاج إلى خبرة متخصصة لإنتاج محادثات هاتفية مقنعة.

وأوضحت نورمان، في مقال نشرته "فايننشيال تايمز"، أن ظهور نماذج الذكاء الاصطناعي الفورية المعتمدة على الكلام، مثل واجهة برمجة التطبيقات "ريل تايم"من "أوبن أيه أى"، جعل إنشاء أنظمة يمكنها الاستماع والتفكير والاستجابة لحظيًا أمراً متاحًا للجميع، حتى باستخدام بضعة أسطر من الشفرة البرمجية، مشيرة إلى أن النتيجة هي صوت اصطناعي يحاكي الحوار البشري بطلاقة ويظهر طابعًا طبيعيًا، ما يجعل تمييزه عن الإنسان شبه مستحيل.

وأظهرت الباحثة أمثلة على التأثيرات العملية، حيث تعرضت شركة التكنولوجيا البريطانية "أروب" للاحتيال بمبلغ 25 مليون دولار عبر مكالمة مزيفة باستخدام الذكاء الاصطناعي، بينما نجح هجوم مماثل على شركة "سيسكو" في استخراج معلومات من نظام إدارة علاقات العملاء السحابي.

وشددت الباحثة على أن هذه الجرائم توضح حجم المخاطر المرتبطة بالاحتيال الصوتي، والتي ازدادت بشكل كبير نتيجة انخفاض حواجز الدخول التقنية، وارتفاع قدرة أي شخص على تنفيذ مثل هذه الهجمات.

وأضافت أن التكنولوجيا نفسها لها استخدامات مشروعة، مثل الرعاية الصحية أو خدمة العملاء، لكن إمكانية الوصول الواسعة التي تمنحها هذه الأدوات تزيد أيضًا من فرص الضرر والانتهاك للحقوق، بما في ذلك الحق في الخصوصية والأمان المالي.

ارتفاع عمليات انتحال الهوية

حذر خبراء الأمن السيبراني، وفق تقرير نشره موقع "تك رادار"، من أن عمليات الاحتيال بانتحال الهوية باستخدام الذكاء الاصطناعي سترتفع بشكل كبير في عام 2025.

وصف الخبراء أسلوب الهجمات بالخطير، حيث يستخدم المحتالون استنساخ الصوت وتقليد الوجه وانتحال شخصيات الأشخاص الموثوق بهم، مثل أفراد الأسرة أو المسؤولين التنفيذيين، لإقناع الضحايا بالكشف عن معلومات حساسة أو تحويل أموال.

وأوضح الخبراء أن عمليات انتحال الشخصية باستخدام الذكاء الاصطناعي ازدادت بنسبة 148% هذا العام، بحسب موقع "مونلوك"، مع تمكين التكنولوجيا من محاكاة الصوت والوجوه بشكل مقنع، مما يجعل اكتشاف الخداع شبه مستحيل، ونصح الخبراء باتباع إجراءات أمنية مشددة، مثل التمهل والتحقق من الهوية قبل تنفيذ أي تحويل مالي أو مشاركة بيانات شخصية، واستخدام المصادقة متعددة العوامل.

وأشار الخبراء إلى أن بعض الهجمات وصلت إلى استخدام مقاطع فيديو مزيفة لمحاكاة الاجتماعات المباشرة، حيث انتحل المحتالون شخصية مسؤولين تنفيذيين لإقناع الموظفين بالموافقة على تحويلات مالية كبيرة، وأكد الخبراء أن الجمع بين الصور والفيديوهات المنشورة على مواقع التواصل الاجتماعي والمنصات المهنية يُسهم في ابتكار انتحال مقنع، ما يرفع حجم المخاطر القانونية والحقوقية على الأفراد والمؤسسات.

ونصح الخبراء بأن يكون التعامل مع المكالمات المشبوهة أو مقاطع الفيديو المزيفة حذرًا، مع التحقق المباشر من هوية المتحدث عبر وسائل اتصال مستقلة، مثل الاتصال بالرقم الموجود مسبقًا بدلاً من الرد على المكالمة الواردة.

استهداف المستخدمين العاديين

أظهر بحث صادر عن بنك ستارلينج أن 28% من الأشخاص استُهدفوا مرة واحدة على الأقل خلال العام الماضي في عمليات احتيال باستخدام الذكاء الاصطناعي لاستنساخ الأصوات، في حين لم يكن 46% منهم على دراية بهذا النوع من الاحتيال، وذكر 8% أنهم سيرسلون على الأرجح أي مبلغ يُطلب منهم، حتى لو كانت المكالمة تبدو غريبة.

وصرحت كبيرة مسؤولي أمن المعلومات في بنك ستارلينج، ليزا غراهام، بأن انتشار تسجيلات صوتية على الإنترنت يجعل الأشخاص أكثر عرضة للاستهداف، مقترحة استخدام عبارة آمنة للتحقق من صحة المكالمات مع الأصدقاء والعائلة، وأضافت: "يحتاج المحتالون إلى ثلاث ثوانٍ فقط من الصوت لاستنساخ صوتك، لكن الأمر لن يستغرق سوى بضع دقائق مع عائلتك وأصدقائك لإنشاء عبارة آمنة لإحباطهم".

أوضحت غراهام أن التصيد الصوتي يعرض الحقوق الأساسية للأفراد للخطر، بما في ذلك الحق في الأمن الشخصي والحق في حماية المعلومات المالية، داعية إلى تعزيز الوعي المجتمعي حول طرق الحماية من هذه الهجمات.

وحذّرت وكالة الأمن السيبراني البريطانية أيضًا من صعوبة تحديد رسائل التصيد الاحتيالي الناتجة عن الذكاء الاصطناعي، مشيرة إلى أن المستخدمين قد يُخدعون لتقديم كلمات مرور وبيانات شخصية.

من جانبها، أضافت "الغارديان" أن الجرائم الإلكترونية المعقدة مثل الاحتيال في مكالمات الفيديو تسببت بخسائر ضخمة، ومنها حالة في هونغ كونغ، حيث خدعت موظفة لإرسال 200 مليون دولار هونغ كونغي (20 مليون جنيه إسترليني) لمحتالين انتحلوا صفة مسؤولين كبار، مستغلين مقاطع فيديو تم تنزيلها مسبقًا وإضافة أصوات مزيفة باستخدام الذكاء الاصطناعي.

انتهاك الحقوق الرقمية

أوضح محلل الأمن السيبراني، أشوين راغو، لموقع بيزنس إنسايدر، أن المحتالين يعتمدون على رد فعل فوري من الضحايا، وأن معاودة الاتصال بالمتحدث الحقيقي تُلغي الحاجة للاستجابة الفورية، وهو ما يبرز أهمية الوعي الحقوقي والفهم الرقمي للأمان الشخصي.

وصرحت خبيرة الأمن السيبراني، جاكلين جاين، لصحيفة "ذا أستراليان"، أن أفضل وسائل الحماية تتمثل في الجمع بين التحقق المباشر والمصادقة متعددة العوامل، خاصة خلال فترات النشاط المكثف للاحتيال، مثل موسم الضرائب.

وأكدت أن الذكاء الاصطناعي يمنح المحتالين أدوات جديدة وقوية للخداع، ما يفرض على الأفراد تعزيز حقوقهم الرقمية من خلال اليقظة، والتحقق من الطلبات المشبوهة، وإبلاغ الجهات المختصة بأي انتهاك محتمل.

وأوضحت مونيكا، وهي صحفية تقنية تعمل في ديجيتال تريندز وسلاش جير ووي بي سي وتومز هاردوير، أن قدرات الذكاء الاصطناعي على استنساخ الصوت والفيديو تُمثل تهديدًا للحقوق الرقمية الأساسية، بما في ذلك الحق في الخصوصية وحق الملكية على الصوت والصورة، مشيرة إلى أن التكنولوجيا، رغم فوائدها، تُستخدم أحيانًا بشكل يضر بالثقة بين الأفراد والمؤسسات، ويجب تطبيق نفس الابتكار لتأمينها.

شددت مونيكا على أن تصاعد حالات الاحتيال الصوتي والفيديو يُظهر الحاجة الملحة لإطار قانوني يحمي الأفراد من استغلال هذه التقنيات، ويضمن مساءلة المسؤولين عن انتهاك الحقوق، بما يوازي التطور التقني في الذكاء الاصطناعي.

توصيات الخبراء

حثت المؤسسات المالية والمصرفية والخبراء الأمنيون على اعتماد إجراءات صارمة للتحقق من الهوية في جميع المعاملات عالية القيمة، بما في ذلك استخدام المصادقة متعددة العوامل والتحقق الصوتي المزدوج، لحماية الحقوق الاقتصادية للأفراد.

وأشارت تقارير "تك رادار" و"غارديان"إلى أن التوعية المجتمعية تلعب دورًا حيويًا في تقليل المخاطر، حيث يمكن لتعليم الجمهور حول طرق الانتحال الصوتي وآليات الحماية أن يقلل من وقوع الأفراد ضحايا، ويعزز مبدأ الحق في الأمان الشخصي والحق في معرفة هوية المتصل الحقيقي.

ودعت المصادر الصحفية إلى تطوير علامات مائية صوتية وتوقيعات رقمية للتحقق من صحة المحادثات الصوتية والفيديو، معتبرة أن هذه الإجراءات تمثل خط الدفاع الأول أمام الانتهاكات الرقمية التي تُهدد الحقوق الأساسية للإنسان في العصر الرقمي.

وشددت التقارير على أن الذكاء الاصطناعي قد يغير قواعد الأمان الرقمي، وأن الاحتيال الصوتي ليس مجرد تهديد تقني، بل هو مسألة حقوقية مباشرة تتعلق بالخصوصية والأمان المالي والاجتماعي للأفراد، مما يستدعي تحديث القوانين وتطبيق سياسات حماية صارمة.

 



موضوعات ذات صلة


ابق على اتصال

احصل على النشرة الإخبارية